对僵尸的回应
❦
我今天有点累,因为昨天我熬到凌晨 3 点,写那篇超过 6000 字、讨论僵尸的文章,所以今天我就只回应一下 Richard,并把我第二天发现的一个尾巴收掉。
(A) Richard Chappell 写道:
先做一个术语说明(以免造成不必要的混乱):你所说的「可设想」,在我们其他一些人看来,至多只能叫作「表面上可设想」。
在「我暂时还没看出矛盾」与「这在逻辑上是可能的」之间,横着一道巨大无比的鸿沟(就连一些看似简单的情形,它都是 NP 完全的),大到你真的应该给它们用上两个不同的词。僵尸论证之所以能被强化,正是因为这道巨大的鸿沟可以被扫到一些细微的术语差异的地毯下面;因此,我真心觉得,最好还是说「可设想」对比「逻辑上可能」,或者干脆弄出一个更醒目的区分。我没法替一个已经被建立起来的专业术语体系做选择,但像这种情况,我甚至可能会认真拒绝使用它。
也许我会把僵尸倡导者通过想象僵尸世界所获得的那类信息,称作「表面上可设想」;而把通过展示完整模型或逻辑证明所建立起来的那类信息,称作「逻辑上可能」。请注意,你闭上眼睛想象僵尸时所能得到的信息,与要把副现象论论证下去所需要的信息之间,差着多么大的距离。
也就是说,你的观点会被归类为某种 A 型物理主义:这种观点认为,僵尸甚至都不(真正)是可设想的,更别说在形而上学上可能了。
A 型物理主义是一个很大的包裹;在你看到我逐项同意其中每一部分之前,你不该把整个包裹都算到我头上。我认为,问「意识是什么?」的人,提出的是一个正当的问题,也正当地要求某种洞见;我并不一定认为答案会采取这样一种形式:「这儿有某种东西,因为这样那样的理由,它拥有你会赋予意识的全部属性」,它也可能在某种程度上是这样一些洞见:让你意识到,你原先提问题的方式就错了。
这并不是在对意识采取取消主义立场。这只是对你应该期待何种洞见持现实态度,因为你面对的是一个这样的问题:1. 它似乎必定有某种解;2. 它又似乎根本不可能有任何解;3. 人们对此展开的讨论,高度依赖于人类认知那种尚未被充分理解的特设架构。
(1)据我所知,你到目前为止并没有指出僵尸世界描述中的任何逻辑矛盾。你只是指出它有点奇怪而已。但外面本来就有很多怪异的可能世界。这并不足以让人假定其中隐含着矛盾。所以,对我来说,这个所谓的矛盾到底是什么,仍然完全是个谜。
好吧,那我就从物理主义的立场把它明说出来:
-
僵尸世界,按定义,包含了我们世界中所有处于任何可观察现象沿着「由……引起」或「是……的结果」关系所形成闭包之内的部分。尤其是,它包含了那个使我 visibly 说出「我思故我在」的原因。
-
当我把内在觉察聚焦到我的内在觉察之上时,不久之后,我就会体验到我的内在叙事在说「我正在把内在觉察聚焦到我的内在觉察之上」;而且,如果我愿意,我还可以把这句话大声说出来。
-
直觉上看,我的内在觉察确实似乎会导致我的内在叙事说出某些内容,而我的内在叙事又会导致我的嘴唇说出某些内容。
-
「意识」这个词,如果它还有任何意义的话,它所指称的,就是那个本身是内在觉察、或导致内在觉察、或让我说出自己拥有内在觉察的东西。
-
由(3)与(4)可知,如果僵尸世界在我说出「我思故我在」这件事的原因上是闭合的,那么僵尸世界就包含了我们称之为「意识」的那个东西。
-
按定义,僵尸世界并不包含意识。
-
(3)在我看来有相当高的经验真实性概率。因此,我据此评估:僵尸世界在逻辑上不可能,具有很高的经验概率。
你当然可以通过让「我内在叙事说出『我思故我在』」的原因完全不是意识,来挽救僵尸世界。再加上你还假定意识确实存在,这正是让我觉得整件事近乎精神错乱的部分。
但如果上面这种说法是可设想的,那僵尸世界不也就是可设想的吗?
不,因为两种对僵尸世界的构造,给「意识」这个词赋予了不同的经验指称对象,就像在我们的世界里,「水」指的是 H2O,而在 Putnam 的双生地球里,「水」指的却是 XYZ。要让僵尸世界在逻辑上可能,并不只需要:按照你对经验世界如何运作的全部所知,「意识」这个词本可以指称某种与我们所知意识完全不同的副现象。僵尸世界缺少的是意识,而不是「意识」——它是一个没有 H2O 的世界,而不是一个没有「水」这个词的世界。这才是把下面这个经验性陈述撑起来所需要的东西:「你可以从我们的世界中消去『意识』一词真正所指的那个对象,同时保持所有原子都在原位不动。」
也就是说,我的主张是:鉴于「意识」这个词实际所指的东西是什么,「不挪动任何原子就消去意识」在经验上是一个事实,而且在逻辑上是不可能的。至于从一个世界中消去「意识」这个词,而不是消去意识本身,究竟意味着什么,我不打算猜测。
(2)说这件事在(属性二元论者看来)是「奇迹般的」,会造成误导。毕竟,是有一条自然法则来保证我们的感质会如此整齐地与物理世界对齐。所以它并不比其他任何逻辑上偶然、但由法则保证的必然性更奇迹(例如我们物理定律中的各种常数)。
被称作「奇迹般的」的,恰恰是那条自然法则本身——它算是理论中一个额外的、复杂而不大可能的成分,需要被另外假定进去,而它自身却并没有根据已经知道的事物得到解释。你假定了:a. 一个有意识的内在世界;b. 一个发生故障的外在世界,它会毫无理由地谈论意识;以及 c. 这两者完美对齐。陈述 c 并不由 a 和 b 推出,因此它是一个独立的额外假设。
我同意,这里对「奇迹般的」一词的用法,和哲学中「违反自然法则」的含义相冲突;我原本想表达的是另一层意思:一种看不出来源的不大可能性,仿佛永动机信念那样。因此,这个词在这里选得并不好。但这难道不直觉上就是我们会称之为奇迹的那类事情吗?你的意识并不会真的导致你说自己有意识;另有一个独立的物理东西让你说自己有意识;但与此同时,又有一条法则把两者对齐——这件事的离谱程度,的确和「一块薄饼在保持薄饼的外观与外在行为完全不变的同时,却变成了 Christ 血肉的实体」差不多;只是,当然啦,有一条自然法则来保证这一点。
也就是说,僵尸版 Chalmers(或者说「外层」Chalmers)实际上根本没有得出任何结论,因为他的发言是无意义的。更不用说,他也不可能得出任何缺乏根据的结论。他不过是在发出声音而已;这些声音和鸟鸣一样,都不适合接受认识论上的评估。
从 AI 设计的角度看,在我看来,你理应能够造出这样一个 AI:它会系统性地改进自己内部的某个部分,而这个部分与环境是相关的(以互信息或系统性关系的意义来说);这个部分里甚至也许有某类浮点数,我会把它称作「概率」,因为当 AI 遇到新信息——抱歉,是新的感官输入——时,这些浮点数服从 Cox 定理所要求的那些内部关系。
你会说,除非这个 AI 不仅仅是晶体管——除非它拥有二重侧面——否则它就没有信念。
我想,我在简单真理里已经把自己在这个问题上的看法说得很清楚了。
对我来说,要构造出以系统方式与疆域相关联的地图,似乎是件相当直接的事,而在这个过程中完全无需提及任何纯物理因果之外的东西。一个 AI 输出一张得克萨斯州地图。另一个 AI 带着这张地图飞到得克萨斯州,检查公路是否位于对应的位置;当它检测到匹配时,就啁啾一声「真」,检测到不匹配时,就啁啾一声「假」。你当然可以拒绝把这叫作「得克萨斯州地图」,但这些 AI 自己仍然会发出「真」或「假」的啁啾;而且,当它们看到 Chalmers 对某个副现象式内核的信念时,它们也会发出「假」的啁啾,而我本人会站在它们那边。
很明显,映射现实这一功能,严格来说是由外层 Chalmers 完成的。生成信念表征这一整套活儿,则是由因果互动中的贝叶斯结构来处理的。留给内层 Chalmers 去做的,已经只剩下为整件事赋予一种副现象式的意义了。而这里的「意义」,如今变成了某种与系统性的地图—疆域对应关系、以及利用地图来导航现实的能力完全无关的东西。所以,当谈到「准确性」,更别说「系统性的准确性」时,在我看来,我们理应只看外层 Chalmers,就足以作出判断。
(B) 在昨天的文章里,我写下这段话时漏掉了一个前提:
如果一个可自我修改的 AI 检查自己内部某个在条件 A 下得出「B」的部分——也就是每当条件 A 为真时,就会把「B」写入记忆的那个部分——而这个 AI 检查了该部分,弄清它在更大宇宙背景中是如何(因果性地)运作的,并且这个 AI 判断:该部分系统性地倾向于把错误数据写入记忆,那么这个 AI 就发现了一个看起来像 bug 的东西,于是 AI 会修改自己,使其不再在条件 A 下把「B」写入信念池。
...
但无论是外层 Chalmers,还是任何一个在反思上保持一致、能够自我检查的 AI,都不可能有任何正当根据去相信这种神秘的正确性。我认为,一个好的 AI 设计,应该是一种在反思上保持一致的智能体:它对自己如何作为因果系统运作,有一套可检验的理论;因此,它也应当对这个因果系统如何在实现其目标的过程中,产出系统性准确的信念,有一套可检验的理论。
实际上,上述说法还需要再加一个前提:一个「好的 AI 设计」(至少是我当时心里想着的那种)会以模块化的方式来判断自己的理性;它通过强制局部理性,来保证全局理性。如果某个部件相对于其上下文而言,在局部上是系统性不可靠的——也就是说,对某些可能的信念「Bi」和条件 Ai 而言,它会在局部条件 Ai 成立时,把某个「Bi」加入信念池;但系统的反思表明,当局部条件 Ai 成立时,Bi 并不为真(或者在概率性信念的情形下,并不准确)——那这就是一个 bug。这种模块化是让问题变得可处理的一种办法,而这也是我目前思考第一代 AI 设计的方式。[编辑于 2013 年:我当时脑中实际想表达的概念,如今已经在论文 Tiling Agents for Self-Modifying AI 第 6 节中被进一步展开并形式化了。]
这个想法是:一个因果闭合的认知系统——比如说,一个由程序员设计成只使用因果上有效部件的 AI;或者一个对自身功能运作拥有一套完全可检验理论的 AI;或者那个会写哲学论文的外层 Chalmers——如果它相信自己拥有某个副现象式的内在自我,那它一定做了某种系统性不可靠的事情,因为在僵尸世界里,它也会得出同样的结论。一个所有部件相对于其上下文都在系统性局部上可靠的心智,就会在系统性全局上可靠。因此,一个在全局上不可靠的心智,至少必然包含一个局部上不可靠的部件。所以,一个因果闭合的认知系统在检查自己局部可靠性的时候,必然会发现:在把「存在一个副现象式内在自我」这一信念加入系统的过程中,至少有一个步骤是不可靠的。
如果还存在别的办法,能让心智保持反思一致,同时避开这个「导出对僵尸不信」的证明,那么哲学家们完全可以试着把这些办法具体讲出来。
我之所以必须把这些都说清楚,是因为否则你就会得到一种极其廉价的反思一致性:AI 永远不可能把自己判定为不可靠。比如说,如果 AI 发现自己有一个会在(数羊这一周边语境中)算出 2 + 2 = 5 的部件,那么 AI 就会推理说:「嗯,这个部件坏掉了,它说 2 + 2 = 5……但出于纯粹的巧合,在我看来,2 + 2 还真的等于 5……所以,尽管这个部件看起来是系统性不可靠的,我最好还是保留它原样,否则它在这个特殊情形下就会出错。」这就是为什么我会说,要通过强制局部系统性可靠来保证全局可靠——如果你只是拿你的全局信念去和你的全局信念比较,那你哪儿也去不了。
这里面确实有一个一般性的教训:要通过论证的每一步都在局部上可靠,来证明你的论证在全局上可靠;不要只是把论证得出的结论拿去和你的直觉作比较。[编辑于 2013 年:关于有效逻辑为何在局部上有效,参见 Proofs, Implications, and Models。]
(C) 一位匿名发帖者写道:
这是个旁枝末节,但我认为你对 “n’shama” 的词源解释错了。它和「呼吸」那个词有关,不是和「听见」那个词有关。「听见」那个词的词根里有一个 ayin,而 n’shama 没有。
这才叫奇迹般地误导人的巧合——虽然 N’Shama 这个词的出现完全出于不同的原因,但它听起来却恰到好处,刚好让我以为它指的是某个内在的聆听者。
哎呀。